Компания VMware на днях выпустила очередной полезный постер - VMware NSX Reference Poster, в котором можно увидеть следующие вещи, касающиеся средства виртуализации сетей корпоративного датацентра VMware NSX:
Для тех, кому посчастливилось иметь в своей виртуальной инфраструктуре это дорогостоящее решение от VMware, весьма нужна штука. Загрузить постер о VMware NSX можно по этой ссылке.
Напомним, что остальные постеры VMware вы можете найти по этому тэгу или в правой колонке нашего сайта.
Это гостевой пост компании ИТ-ГРАД. Те, кто использует продукты VMware, знают, что управление несколькими гипервизорами ESXi происходит с помощью vCenter Server, который чаще устанавливается на виртуальную машину, распложенную на одном из этих же гипервизоров. Выступая в роли подручного средства администрирования, vCenter Server используется для управления ресурсами, позволяя создавать, удалять, редактировать виртуальные машины.
Эта новость будет интересна партнерам VMware, которые продают продукты компании и внедряют ее решения. На днях был выпущен мобильный клиент партнерского портала VMware Partner Central Mobile для Apple AppStore и Google Play.
Партнеры VMware знают, что Partner Central - это основная точка входя для ввода информации о партнере, получения закрытого контента VMware, маркетинговых материалов, сертификации и обучения, а также регистрации сделок для получения преимуществ перед конкурентами (ну и много чего еще, на самом деле).
Конечно же, мобильный клиент дает лишь малую толику функциональности от веб-версии, но самую главную, которая может оказаться решающей в нужную минуту - регистрацию сделок (DealReg или Opportunity Registration). Представьте, что вы вышли с установочной встречи с заказчиком, где присутствовало несколько партнеров - вы успели выхватить свой айфон для регистрации потенциальной сделки, а они нет:)
На самом деле, конечно же, нет. VMware те еще хитрецы и дают регистрацию (а, как следствие, и допскидку) далеко не всегда первому застолбившему, а тому, кто...
В общем, скачивайте приложение, заводите потенциальные сделки, получайте OppReg и отслеживайте статус ваших регистраций. Возможно, скоро в приложении появятся и другие разделы из полноценного Partner Central.
Напомним, что на сайте проекта VMware Labs с начала прошлого года доступен VCS to VCVA Converter, который позволял делать миграции в режиме технологического превью. Теперь же это средство - официально поддерживаемый продукт VMware в составе vCenter, а сам Fling на VMware Labs помечен как Deprecated.
Кстати, Update 2m (Migration) не предоставляет возможностей чистой установки vCSA, поэтому загружать его нужно только тем, кто планирует именно миграцию сервисов физического или виртуального vCenter. Вот так выглядит установщик 2m по сравнению с обычным Update 2:
А вот так выглядит таблица возможных миграций на виртуальный модуль vCSA (обратите внимание, что поддерживается только версия 5.5):
vCenter Server Appliance 6.0 Update 2 with external Platform Services Controller
vCenter Single Sign-On 5.5 + vCenter Server 5.5
vCenter Server Appliance 6.0 Update 2 with embedded Platform Services Controller
Возможности VMware vCenter Server to vCenter Server Appliance (VCSA) Migration Tool:
Поддержка виртуального и физического vCenter Server 5.5 (для vSphere 6.0 скоро будет отдельный апдейт).
Поддержка VMware Update Manager (VUM) - если VUM установлен как вненшний сервис, ничего в процессе миграции делать не нужно, если же он размещен вместе с vCetner Server - его нужно вынести в отдельный сервер.
Использование Migration Assistant в ОС Windows, где установлен vCenter Server, для обеспечения процесса миграции.
Выполнение пре-миграционных проверок на исходном vCenter Server перед началом процесса миграции.
Использование vCenter Server или ESXi для развертывания нового виртуального модуля vCenter Server Appliance.
2 варианта в процессе миграции:
Только основные данные vCenter Server Inventory
Все данные, включая данные о производительности, а также история (Tasks and Events).
Поддержка внешней или внедренной базы данных на исходном Windows vCenter Server:
Microsoft SQL Server
Microsoft SQL Express
Oracle
Миграция базы данных vCenter на embedded PostgreSQL на целевом vCSA.
Миграция всей регистрационной информации для расширений vCenter (но некоторые расширения надо будет перерегистрировать).
Возможность отката к окружению обычного vCenter Server.
Сохранение всех настроек: IP-адреса, FQDN, UUID, сертификатов, идентификаторов MoRef ID.
Скачать VMware vCenter Server 6.0 Update 2 Migration можно по этой ссылке. Документация доступна тут. А вот тут написано о том, как оценить примерное время миграции для планирования простоя сервисов управления виртуальной инфраструктурой.
В блоге CTO компании StarWind Антона Коломейцева есть интересный тест файловой системы ReFS, которая появилась в серверной ОС Windows Server 2016. В статье "ReFS: Performance" Антон детально рассматривает различные аспекты производительности ReFS, а также подробно описывает конфигурацию среды тестирования и сам процесс его проведения.
Интересен вывод о том, что ReFS с включенной фичей FileIntegrity работает как файловая система Log-Structured File System (LSFS), что очень хорошо для виртуальных машин, так как мелкие команды ввода-вывода объединяются в большие пачки, что позволяет избежать эффекта I/O-блендера.
Как вы знаете, сейчас в Лас-Вегасе проводится главная конференция о виртуализации - VMworld 2016, организованная компанией VMware. В первый день конференции было сделано несколько интересных анонсов, например, рассказали о сервисе VMware Cloud Foundation, который скоро станет доступен на платформе IBM, позволяющем получить готовую инфраструктуру на площадке заказчика не только со всеми необходимыми программными и аппаратными компонентами, но и с готовыми, настроенными и интегрированными средствами управления и автоматизации, такими как NSX, Virtual SAN и vRealize:
Архитектура VMware Cloud Foundation, доступность которой ожидается уже в третьем квартале 2016 года, включает в себя следующие компоненты:
VMware vRealize Suite - средства управления доставкой ИТ-сервисов в частном и публичном облаке.
VMware vSphere Integrated Containers - средства быстрого развертывания приложений в изолированных контейнерах на базе виртуальных машин.
VMware Integrated OpenStack - средства построения открытой производственной облачной среды OpenStack поверх инфраструктуры VMware SDDC.
VMware Horizon - единое решение для доставки приложений, рабочих столов и конфигураций конечным пользователям в рамках всего предприятия.
Онпремизная реализация VMware Cloud Foundation - это архитектура VxRack SDDC. Полностью облачный вариант - это реализация публичного облака на базе сервисов IBM Softlayer. Управляться все это будет через VMware SDDC Manager.
Также VMware рассказала о своем виденьи архитектуры взаимодействия между частным и публичными облаками, которое называется Cross-Cloud Architecture:
Службы Cross-Cloud Services, находящиеся сейчас в разработке (доступно технологическое превью), позволят оперировать посредством VMware Cloud Foundation любой гибридной облачной инфраструктурой, объединяющей не только облака VMware vCloud Air, но и других провайдеров, таких как Amazon AWS, Microsoft Azure и прочих:
Вот так это выглядит на практике в консоли Cloud Services:
Кстати, платформа VMware Enterprise Hybrid Cloud 4.0 для управления гибридной облачной инфраструктурой продвинулась до версии 4.0 и уже доступна для использования с полной поддержкой продуктовой линейки vRealize 7.0:
Но самое интересное - это некоторые цифры и факты, которые были озвучены в первый день конференции VMworld 2016:
23 000 участников приехали на конференцию в этом году.
В 2006 году было 29 миллионов рабочих нагрузок в физических и виртуальных машинах, а в 2016 году их стало 130 миллионов, при этом 15% исполняются в публичных облаках, а 12% - в частных.
Ожидается, что к 2021 году половина всех виртуальных машин будет находиться в облаке. А к 2030 году - более половины всех существующих нагрузок переедут в публичные облака сервис-провайдеров.
Рынок услуг хостинга в 2016 году составляет 60 миллиардов долларов и показывает рост 18% в год.
Рынок "интернета вещей" ожидает мощный взрыв - в течение 5 лет число девайсов увеличится в 4,5 раза!
В 2019 году машины будут управлять большим числом устройств, подключенных к сети интернет, чем люди.
Вертикальные рынки, которые адаптируют и будут применять облачные технологии можно расположить следующим образом в порядке убывания приоритета:
Technology vendors
Communications
Resources
Banking
Manufacturing
Transportation
Insurance
Securities and investments
Professional Services
Construction
Ну и, конечно же, много было сказано о том, что традиционные ИТ-сервисы обречены на скорую смерть. Соответственно, компаниям либо придется принять новую облачную реальность и изменить свой подход к организации ИТ-инфраструктуры, либо также умереть вместе с традиционными ИТ-сервисами.
Ну и в довершении анонсов первого дня VMworld 2016, вот так можно суммаризовать виденье компании VMware в сфере облачных вычислений:
Таги: VMware, VMworld, Update, Cloud, Cloud Computing, Foundation, Hybrid Cloud, Public Cloud, Private Cloud, IBM
Вы уверены, что знаете, что происходит на ваших датасторах? Где хранятся ваши ISO-образы? Сколько у вас «осиротевших» (orphaned) виртуальных дисков? Каков их размер, и как давно они там? И что ещё занимает совсем недешёвое пространство на вашей СХД? Функция Search-Datastore из моего PowerCLI модуля Vi-Module ответит вам на все эти и многие другие вопросы.
На сайте проекта VMware Labs появилась очередная утилита HCIbench, которая может оказаться полезной тем, кому требуется провести комплексный тест производительности отказоустойчивых кластеров хранилищ Virtual SAN, а также других конфигураций виртуальной инфраструктуры.
Проект HCIbecnh ("Hyper-converged Infrastructure Benchmark") является оберткой для известного open source теста VDbench, он позволяет организовать автоматизированное тестирование гиперконвергентного кластера (HCI-кластера). Гиперконвергентный кластер - это когда все его вычислительные ресурсы, системы хранения и сети виртуализованы и собраны в единую интегрированную сущность и управляются из одной точки.
Целью такого тестирования может быть, например, необходимость убедиться, что развернутая инфраструктура обеспечивает достаточную производительность для планируемой на нее нагрузки.
Решение HCIbench позволяет посредством скрипта настроить развертывание новых виртуальных машин, скоординировать в них запуск рабочих нагрузок, агрегировать и вывести результаты тестирования, а также собрать необходимые данные для целей траблшутинга. Ну и тут надо добавить, что HCIbench разработан не только для инфраструктуры VIrtual SAN, но и для любой другой гиперконвергентной инфраструктуры хранилищ, например StarWind.
Суть работы HCIbench проста - пользователь задает параметры работы скрипта, а утилита дает команду Vdbench, какие действия необходимо выполнить в кластере хранилищ.
Вводим число виртуальных машин и дисков, а также их размер:
Задаем тестовую конфигурацию:
Задаем параметры тестирования виртуальных дисков:
Решение состоит из двух компонентов:
Виртуальный модуль Controller VM, на котором установлены:
Ruby vSphere Console (RVC)
Утилита Virtual SAN Observer
Automation bundle
Файлы конфигурации
Тестовая виртуальная машина Linux, используемая как шаблон.
Ну и вот какие задачи может выполнять HCIbench:
Соединение с тестируемым окружением Virtual SAN. Утилита может быть в отдельной инфраструктуре vSphere, но нужно иметь доступ к целевому кластеру хранилищ.
Развертывание тестовых виртуальных машин с ОС Linux, основываясь на введенных параметрах пользователя (число машин и число виртуальных дисков на одну машину, а также их размер).
Опциональный запуск команды dd на каждом из виртуальных дисков, чтобы инициализировать хранилища и создать диски полного размера (thick).
Передача параметров VDbench на каждую из тестовых ВМ. В файле конфигурации описана целевая нагрузка и спецификация ее выполнения.
Запуск утилиты Virtual SAN Observer перед началом тестирования и генерация статистик по завершению тестов.
В итоге мы получаем вот такие графики производительности в Virtual SAN Observer:
Утилита HCIbench поставляется в виде готового виртуального модуля и имеет веб-интерфейс конфигурации. Скачать HCIbench можно по этой ссылке. Инструкция по развертыванию и использованию доступна тут.
Компания Parallels, известная одной из лидирующих платформ для виртуализации под Mac OS, выпустила серьезное обновление своего флагманского продукта - Parallels Desktop for Mac 12. Напомним, что о возможностях одиннадцатой версии мы писали вот тут ровно год назад.
Напомним, что это решение позволяет запускать виртуальные машины Windows и Linux на платформе Mac OS X, что необходимо очень и очень многим пользователям ввиду того, что, например, некоторые нужные десктопные приложения есть только под Windows.
Давайте посмотрим на новые возможности Parallels Desktop for Mac 12, которые отличают его от 11-й версии (а если вы используете VMware Fusion - самое время сравнить функциональность):
Покупка Windows 10 напрямую из New Virtual Machine Wizard - полезная фича, которая упростит развертывание новой гостевой ОС.
Оптимизации для игр - используя Parallels Desktop, можно было играть в Windows-игры и раньше, но теперь игры работают еще быстрее за счет тесного взаимодействия команд разработки Parallels и ведущих производителей игр, таких как Blizzard (на скриншоте выше показан скрин Overwatch, под который были сделаны оптимизации).
Parallels Toolbox for Mac - это набор утилит (раньше они стоили $10), которые позволяют делать множество вещей: скачивать видео с Youtube и Facebook, архивировать файлы и защищать их паролем, записывать звук и управлять микрофоном в один клик, а также многое другое.
Обновления профессиональной версии - теперь разработчики могут управлять полосой для сетевого взаимодействия, а также ограничивать потребление ресурсов каждой ВМ, если их запущено несколько на одном хосте.
Повышенное быстродействие -
доступ к общим папкам стал работать до 25 % быстрее, приостановка ВМ ускорилась до 60 %, создание снапшотов - до 25 %, а время работы от батареи увеличилось более чем на 10 %.
Быстрое добавочное резервное копирование с помощью Acronis True Image - теперь всем пользователям предлагается годовая подписка на Acronis True Image с пространством для хранения резервных копий в облаке до 500 ГБ и быстрое создание добавочных копий (а она, кстати, стоит $30, если брать отдельно).
Безопасность - появились функции быстрой архивации файлов и их защиты паролем, как для Mac, так и для Windows.
Подключаемый модуль для раздела «Оптимизированное хранилище» macOS Sierra - появилась
интеграция с функцией оптимизации хранилища, которая появится в готовящейся к выпуску macOS Sierra. Эта возможность позволяет просматривать и контролировать хранилище виртуальных машин Parallels Desktop прямо в хостовой операционной системе.
Сохранение паролей в связке ключей Mac - теперь можно сохранить все свои пароли, в том числе используемые в ОС Windows и Microsoft Edge, а также управлять ими в своей собственной связке ключей для Mac.
Полная интеграция с Office 365 - теперь при попытке открыть документы Word, Excel и PowerPoint в Safari они открываются в соответствующем классическом приложении Office.
Режим «Не беспокоить» для Mac и Windows - помогает повысить производительность работы, временно отключая все отвлекающие факторы, в том числе все уведомления приложений и операционной системы, но при этом не давая хостовой Mac OS перейти в спящий режим.
Значки EXE-файлов в Finder - теперь в Finder отображаются значки EXE-файлов Windows.
Планирование обновлений Windows - обновление Windows можно отложить на удобное время, чтобы не получать уведомления в рабочее время.
Поддержка дисплеев Retina - теперь присутствует полная поддержка дисплеев Retina с интеллектуальным изменением размера и независимыми разрешениями экрана для отдельных дисплеев.
Постоянная готовность - это возможности быстрого открытия файлов в Windows-приложениях.
Будильник, таймер и секундомер - набор удобных и простых в использовании инструментов для управления временем.
Скачать Parallels Desktop for Mac 12 можно по этой ссылке. Для пользователей с действующей подпиской обновление доступно бесплатно.
Таги: Parallels, Desktop, Update, Mac OS, Apple, VMachines
На сайте проекта VMware Labs появилась интересная утилитка VMFork for pyVmomi для администраторов, которые любят ставить всяческие эксперименты со скриптами. Эта утилитка позволяет создать работающую копию запущенной виртуальной машины посредством скрипта на Python, через VMware vSphere API Python Bindings (pyVmomi). Ранее эти возможности были доступны только через PowerCLI.
Напомним, что VMFork позволяет очень быстро сделать работающую копию работающей виртуальной машины на платформе VMware vSphere. Суть технологии такова, что "на лету" создается клон виртуальной машины (VMX-файл, процесс в памяти), который начинает использовать ту же память (Shared memory), что и родительская ВМ. При этом дочерняя ВМ в общую память писать не может, а для записи собственных данных используется выделенная область памяти. Для дисков аналогично - с использованием технологии Copy-on-write в дельта-диск дочерней ВМ пишутся отличия от базового диска родительской ВМ.
Когда вы стираете ВМ через портал Microsoft Azure, у вас нет опции также удалить относящиеся к ВМ объекты, такие как виртуальные сетевые интерфейсы и виртуальные диски.
Что такое потерянные (orphaned) виртуальные диски - это *.vhd файлы, которые находятся на Storage Accounts, потребляя дорогое пространство на СХД, но не относятся ни к одной ВМ.
Как всегда, на помощь нам придёт PowerShell. Представляю вам очередную функцию Get-AzOrphanedVhd моего Azure PowerShell модуля, которая найдёт все потерянные виртуальные диски во всех Resource Groups и на всех Storage Accounts. Эта простенькая функция вообще не имеет параметров!
Всё, что нужно для её использования - это залогиниться в ваш Azure аккаунт при помощи Login-AzureRmAccount, выбрать интересующую вас подписку (Subscription) при помощи Select-AzureRmSubscription и просто запустить Get-AzOrphanedVhd.
Все свойства, возвращаемые функцией интуитивно понятны. Хочу заострить ваше внимание только на этих двух:
LastWriteDays - количество дней с момента последнего изменения диска.
Modified - дата изменения диска в вашем локальном времени.
Двум переменным среды $WarningPreference и $ErrorActionPreference присваивается значение SilentlyContinue, чтобы избежать подобного рода предупреждений и ошибок.
Учтите, что даже если диск не относится ни к одной ВМ, это абсолютно не значит, что он не содержит важную информацию! Подумайте дважды прежде, чем удалять какой-либо диск.
Если вы всё-таки решили стереть один или несколько дисков, вы можете это сделать через портал (GUI) или при помощи командлета Remove-AzureStorageBlob.
Обязательно просмотрите справку по Remove-AzureStorageBlob, он поддерживает очень много параметров.
PS C:\> Get-Help Remove-AzureStorageBlob –Full
Также посмотрите примеры использования Get-AzOrphanedVhd.
PS C:\> Get-Help Get-AzOrphanedVhd –Examples
Для желающих почитать статью в оригинале, прилагаю ссылку на блог автора.
Как некоторые из вас знают, в августе компания VMware объявит об окончании поддержки версий платформ VMware vSphere 5.0 и 5.1 согласно своему расписанию жизненного цикла продуктов. Поэтому самое время задуматься об обновлении инфраструктуры на VMware vSphere 6.0. Но как проверить, поддерживаются ли ваши серверы, на которых исполняются старые версии платформ, новый релиз ESXi 6.0? Можно, конечно, смотреть в VMware HCL для каждого сервера, но это очень долго и муторно.
Как раз для нуждающихся в ускорении этой процедуры пользователей на сайте virten.net появился скрипт PowerCLI Check-HCL function, который позволяет вывести все версии VMware vSphere, которые поддерживает каждый из ваших хост-серверов. Результат работы скрипта выглядит следующим образом:
Скрипт соединяется с вашим сервером VMware vCenter, получает оттуда хосты ESXi и для каждого проверяет, с какими релизами vSphere хост данном модели совместим (обратите внимание, что для каждого из хостов указывается модель сервера).
Скрипт основан на предыдущих наработках автора - JSON based HCL и Check-HCL. Снипет для использования этих функций весьма прост:
По заявлению автора скрипты очень хорошо работают для оборудования HP и Dell, а также дают приемлемые результаты для серверов IBM и Cisco. Для остальных - надо качать, запускать и тестировать самостоятельно.
Как вы знаете, в последней версии платформы VMware vSphere 6.0 технология кластеров непрерывной доступности VMware Fault Tolerance была существенно улучшена (напомним, что добавили поддержку до 4 vCPU и до 64 ГБ памяти). Также в этом году мы писали о тестах производительности технологии FT, которые показали небольшие издержки на поддержание работы таких кластеров (их проводила сама VMware).
Однако есть и другие результаты тестов Fault Tolerance, которые показывают уже не такие бодрые значения. Кстати, напомним, что для FT желательно иметь 10 GbE соединение, иначе на гигабитном линке вы будете получать вот такое предупреждение (хотя все продолжит работать):
Так вот, посмотрим на результаты тестов, которые были сделаны с помощью бенчмарк-утилиты DVDstore. В качестве приложения для тестов использовался MS SQL Server (8GB памяти, адаптер VMXNET3 NIC и контроллер VMware paravirtual SCSI) а также машина с клиентом DVDstore. Между хостами ESXi, на которых были FT-машины, был организован 10-гигабитный линк.
В качестве команды для тестирования нагрузки на MS SQL Server была использована следующая:
Основной показатель теста OPM (Orders per Minute) - это оранжевые столбцы. Как видим, добавление новых vCPU не сильно повышает производительность системы, а вот включение Fault Tolerance прямо-таки обрушивает параметр OPM практически в 2 раза (на 47%, если быть точным). Результаты в таблице:
FT disabled
FT enabled
Difference
OPM test 1 vCPU
12291
6418
-48%
OPM test 2 vCPU
13164
7023
-47%
OPM test 4 vCPU
14139
7458
-47%
Ну и зеленые столбики показывают, как линейно росло использование полосы пропускания с ростом количества виртуальных процессоров (vCPU) для FT. При этом самое большое CPU Latency наблюдалось для одного vCPU.
В итоге, мы видим, что производительность при включении VMware Fault Tolerance вполне себе существенно падает, по крайней мере, при некоторых видах рабочих нагрузок. Поэтому тут главный совет - тестировать технологию в своей инфраструктуре перед тем, как планировать использовать ее в производственной среде.
Еще на VMworld 2014 компания VMware анонсировала технологию VMware Project Fargo (которая также называлась VM Fork), позволяющую очень быстро сделать работающую копию работающей виртуальной машины на платформе VMware vSphere.
Суть технологии VMFork такова, что "на лету" создается клон виртуальной машины (VMX-файл, процесс в памяти), который начинает использовать ту же память (Shared memory), что и родительская ВМ. При этом дочерняя ВМ в общую память писать не может, а для записи собственных данных используется выделенная область памяти. Для дисков аналогично - с использованием технологии Copy-on-write в дельта-диск дочерней ВМ пишутся отличия от базового диска родительской ВМ:
В процессе работы VMFork происходит кратковременное "подвешивание" родительской ВМ (quiescence) с помощью технологии "fast suspend resume" (FSR), после чего дочерняя ВМ "отцепляется" от родительской - происходит реконфигурация машины, включающая в себя назначение нового MAC-адреса, получение нового UUID и другое. При этом ВМ шарят общие ресурсы на чтение и имеют свои уникальные области на запись - это очень удешевляет стоимость ресурсов в перерасчете на одну ВМ на хосте.
После выхода новой версии платформы виртуализации настольных ПК VMware Horizon 7 технология VMFork была переименована в Instant Clone и стала доступна для использования в производственной среде. Помимо удешевления стоимости ресурсов для размещения виртуальных машин, Instant Clone имеет еще несколько преимуществ - это делает развертывание виртуальных машин более гибким и быстрым. Ниже мы рассмотрим особенности этих процессов.
В сочетании с технологией доставки приложений через подключаемые виртуальные диски VMware App Volumes 3.0 и средством управления окружениями User Environment Manager, эти возможности позволяют пользователям получить мгновенный доступ к своим данным, при этом рабочая машина пользователя не "загрязняется" ненужными устанавливаемыми программами и распухающими ветками реестра. Это все позволяет собрать десктоп пользователя на лету из полностью кастомизируемых и доставляемых по требованию "кирпичиков".
Давайте посмотрим, насколько Instant Clone упрощает цикл развертывания новых настольных ПК. Вот так выглядит развертывание связанных клонов (Linked Clones) в инфраструктуре VMware View Composer:
Клонирование виртуального ПК из реплики мастер-образа
Реконфигурация нового ПК
Включение ВМ
Кастомизация машины
Создание контрольной точки нового ПК (checkpoint)
Включение ВМ
Логин пользователя
С использованием Instant Clone процесс заметно упрощается:
Создание копии ВМ в памяти средствами VMFork
Кастомизация машины
Включение ВМ
Логин пользователя
Для администратора виртуальных ПК в пулах Instant Clone удобны тем, что таким десктопам не требуются операции Refresh, Recompose и Rebalance. Ведь после выхода пользователя из ПК его десктоп уничтожается, а перестраивать связанные клоны не требуется. Изменения базового образа проходят "на лету" в течение рабочего дня, а при следующем логине пользователь получает уже обновленные приложения. Также есть возможность принудительного перелогина пользователя для обновления компонентов виртуального ПК (например, фикс в подсистеме безопасности).
Также отпадает необходимость в использовании технологии Content-Based Read Cache (CBRC), ведь виртуальные ПК Instant Clone живут недолго, постоянно выгружаются из памяти при выходе пользователя, и нет нужды прогревать кэш их блоками в памяти, а вот для мастер-ВМ и реплик CBRC вполне себе используется.
Кроме того, теперь не нужны операции wipe и shrink для виртуальных дисков SEsparse, которые позволяют возвращать место на растущем диске для связанных клонов. Виртуальные машины Instant Clone живут недолго, а при их уничтожении дисковое пространство их дельта-дисков возвращается в общий пул пространства хранения.
Ну и в отличие от View Composer, технология Instant Clone не требует наличия и поддержки базы данных для операций с виртуальными ПК, что существенно упрощает обслуживание инфраструктуры виртуальных десктопов.
Многие думают, что пулы Instant Clone трудно создавать, настраивать и поддерживать. Это не так, все делается в несколько простых шагов:
Создаем родительскую виртуальную машину, устанавливаем в ней Windows, оптимизируем ее и активируем лицензионным ключом.
Устанавливаем VMware Tools.
Устанавливаем Horizon Agent и отмечаем фичу Instant Clone для установки.
При добавлении нового пула виртуальных ПК типа Automated/Floating отмечаем Instant Linked Clones.
Помимо того, что с Instant Clone процесс проходит меньшее количество шагов, уменьшается и нагрузка на различные компоненты виртуальной инфраструктуры - меньше операций ввода-вывода, быстрее происходит процесс создания мгновенной копии (скорее освобождаются системные ресурсы), меньше объем взаимодействий с сервером vCenter, а дисковое пространство высвобождается сразу после окончания использования виртуального ПК.
Давайте посмотрим, насколько быстрее это работает на тестах. Развертывание связанных клонов View Composer типовой конфигурации (2 vCPU, 2 GB memory, Windows 7, Office 2010, Adobe 11, 7-Zip, Java) на 15 хост-серверах с использованием HDD-дисков занимает где-то 150-200 минут. А то же самое развертывание 1000 виртуальных машин на базе Instant Clone занимает лишь 25-30 минут. То есть скорость получения новой инфраструктуры десктопов по запросу возрастает в 5-7 раз.
При этом не особо-то и растет нагрузка на сервер VMware vCenter. Поначалу, конечно же, возникает пиковая нагрузка на vCenter при операциях в оперативной памяти с мгновенными копиями ВМ, но в итоге средняя загрузка практически такая же, как и при использовании View Composer - ведь не нужно проходить цикл включения (2 раза) и реконфигурации виртуальной машины (3-4 раза), как это происходит у Composer.
В итоге, можно сказать, что в определенных случаях Instant Clone - это лучшее решение с точки зрения быстродействия и производительности. Когда виртуальную машину нужно получить как можно быстрее, а пользователю после окончания работы она не нужна в том виде, в котором он ее оставил - мгновенные копии позволят ускорить процесс в несколько раз. Примером такого варианта использования может служить колл-центр, где оператор использует виртуальный десктоп для решения определенной задачи технической поддержки, после чего от разлогинивается, уничтожая ненужную в данный момент сущность - свой виртуальный десктоп.
В блоге компании VMware появился очень и очень полезный постер vCenter Server Appliance 6.0 Reference Poster, посвященный основным аспекам работы виртуального модуля vCSA для управления инфраструктурой VMware vSphere (vCenter в готовой Linux-машине).
Основные разделы постера:
Requirements and Maximums - здесь указаны требования к виртуальному модулю vCSA и его хранилищам, а также для справки приведены максимумы конфигураций vCenter Server.
Firewall Requirements - требования к портам и соединениям при взаимодействии:
PSC с PSC (Platform Services Controller)
PSC с vCenter Server
vCenter Server с vCenter Server
Migration from Deprecated to Recommended Topology - в этой секции перечислены основные высокоуровневые моменты, касающиеся миграции с устаревших топологий. Эти топологии еще поддерживаются в vSphere 6, но уже не будут работать для следующих версий платформы.
Command Line Interface - здесь приведены команды как для самого виртуального модуля (Appliance Shell), так и для шелла (Bash Shell), которые позволят выполнять основные операции с vCSA.
Knowledge Base (KB) Articles - здесь приведены заголовки 20 основных статей базы знаний (в PDF-документе они являются кликабельными), которые помогут в решении повседневных задач администрирования vCenter Server Appliance.
Скачать VMware vCenter Server Appliance 6.0 Reference Poster можно по этой ссылке. Напомним также, что большинство постеров VMware вы можете найти вот тут.
Ну и вот еще парочка полезных ссылок от VMware на тему топологий vCenter:
В моей прошлой статье мы говорили о том, как автоматизировать включение/выключение Azure ВМ по расписанию при помощи тегов (Resource Tags). В данной статье мы обсудим как же автоматизировать работу с самими тегами. Можно, конечно, управлять тегами через портал Microsoft Azure, но это грустно и неэффективно.
Представляю вам очередную функцию моего Azure PowerShell модуля - Add-AzVmTag. Функция поддерживает 2 набора параметров (Parameter Sets)...
Почти 2 года назад мы писали о полезном для многих администраторов платформы vSphere плагине PowerActions for vSphere Web Client, который позволяет хранить и исполнять сценарии PowerCLI прямо из vSphere Web Client, что очень удобно, когда администратор выполняет повседневные задачи по управлению виртуальной инфраструктурой, где некоторые операции автоматизированы средствами PowerShell.
То есть вы просто нажимаете в веб-клиенте правой кнопкой по объекту виртуального датацентра и из контекстного меню выбираете нужный PowerCLI-скрипт для исполнения:
Одним из методов эффективного владения облачной инфраструктурой является выключение виртуальных ресурсов (ВМ) в нерабочие часы. В облаке Microsoft Azure имеется возможность выключать (stop and deallocate) ВМ с помощью Automation Accounts. При помощи моего PowerShell скрипта Apply-AzVmPowerStatePolicyWf.ps1 вы сможете создать свой собственный Runbook и спланировать включение/выключение ваших Azure ВМ. Таги: Microsoft, Azure, VMachines, Обучение, Cloud, Cloud Computing, PowerShell, Automation
Мы как-то писали о технологии vSphere Integrated Containers (VIC), которая подразумевает запуск виртуализованных контейнеров Docker (и прочих) в маленьких виртуальных машинах с легковесной ОС на базе дистрибутива Linux.
Этой ОС и является VMware Photon OS 1.0, которая окончательно вышла на днях. Это первая релизная версия этой операционной системы от VMware.
При использовании Photon OS каждый контейнер исполняется в своей виртуальной машине, но не в обычной, а в созданной "на лету" с помощью технологии Instant Clone.
VMware Photon OS обеспечивает следующие возможности для контейнеров приложений (в частности, Docker):
Средства быстрого обновления (tdnf), которые позволяют сканировать и своевременно обновлять устаревшие пакеты приложений.
Большой набор библиотек в репозиториях, которые требуются для работы различных приложений на платформе Photon OS.
Построенная на ядре 4.2 система Photon OS поддерживает файловую систему btrfs со всеми ее возможностями в дополнение к overlayfs.
До 26% улучшения производительности по сравнению с бета-версиями (на базе микробенчмарков). Теперь время загрузки ядра составляет примерно 200 миллисекунд. Сама ОС занимает в оперативной памяти 384 МБ, а на диске 396 МБ.
Очень много было сделано в плане безопасности - проведено тщательное ревью всего исходного кода Photon OS, код был проверен различными тулзами, а также привлекались сторонние компании для поиска потенциальных уязвимостей.
Очень часто мне, как и любому администратору виртуальной инфраструктуры VMware, требуется знать версию того или иного объекта. Это может быть версия VMTools/vHardware виртуальной машины или версия vSphere хоста ESXi или версия VMFS-датастора (продолжите список сами). И каждый раз вы начинаете судорожно вспоминать, как это делается, где и какой скрипт искать или пускаетесь в поиски по форумам или обращаетесь к доктору Google).
Вильям Лам написал интересный пост об изменении приветственного экрана физической консоли VMware ESXi. Некоторые из вас знают, что внешний вид DCUI-консоли ESXi можно менять в файле /etc/vmware/welcome.
Но руками залезать в него не нужно, вместо этого можно использовать расширенную настройку ESXi Advanced Setting, которая называется Annotations.WelcomeMessage. Ее можно изменить с помощью сценария PowerCLI / PowerShell.
Часто администраторам нужно узнать, на каком из хостов находится виртуальная машина, например, это сервер vCenter, который выключен по тем или иным причинам. В этом случае поможет вывод имен виртуальных машин прямо в физическую DCUI консоль сервера ESXi, к которой можно получить доступ напрямую с сервера или по SSH.
Ниже приведен PowerCLI-скрипта для описанного сценария, в котором все просто и понятно относительно того, как устанавливается рассмотренная выше расширенная настройка для вывода количества и списка виртуальных машин:
Конечно же, если у вас много виртуальных машин на хосте, то они просто не влезут на приветственный экран ESXi, но 15 виртуальных машин у Вильяма влезли без проблем:
Кстати, если вы хотите вывести только включенные виртуальные машины, то вы можете просто добавить фильтр:
-Filter @{"Runtime.PowerState" = "PoweredOn"}
в конце строчки, где используется командлет Get-View.
В крупных компаниях, где виртуальная инфраструктура является основой всего ИТ, иногда используется продукт VMware NSX для виртуализации и агрегации сетей виртуальных (на базе vSphere) и физических сред. Напомним, что с 3 мая этот продукт также стал доступен в трех изданиях, что позволит приобретать его и небольшим компаниям в базовом издании Standard.
Какое-то время назад мы писали о том, что технология дедупликации страниц памяти Transparent Page Sharing (TPS) с приходом больших страниц памяти становится ненужной (а в последних версиях vSphere и вовсе она отключена). Но это не значит, что сейчас TPS нигде не используется совсем - ведь большие страницы, при условии недостатка ресурсов памяти на хост-сервере, гипервизор ESXi может разламывать на маленькие, после чего дедуплицировать их.
Между тем, в последних релизах VMware vSphere, включая ESXi 6.0, появилась более гранулярная модель управления механизмом TPS, который можно задействовать для отдельных групп виртуальных машин (например, серверы обрабатывающие одни и те же данные, где вероятность дубликатов страниц высока). Называется этот механизм Salting (хэширование с солью).
Как известно, TPS производит хэширование страниц памяти виртуальных машин, после чего происходит сравнение хэшей на предмет их совпадения. Если они совпадают, то начинается побитовое сравнение этих страниц памяти, чтобы исключить ложное срабатывание дедупликации страниц (потому что, как известно, у двух разных исходных строчек теоретически может быть один хэш).
Если страницы полностью совпадают - вносятся изменения в таблицу страниц памяти, где для второй копии ставится просто ссылка на первую, а физически вторая копия страницы уничтожается.
При любой попытке записи в такую страницу со стороны виртуальной машины - мгновенно создается ее физическая копия с помощью механизма copy-on-write (CoW), и она уже перестает быть шаренной (каждая машина начинает использовать свою копию).
Так вот в последних версиях VMware vSphere механизм TPS работает не так просто. По умолчанию используется Salting, а в качестве этой самой соли используется UDID виртуальной машины, который всегда уникален для данного сервера vCenter. То есть перед снятием хэша со страницы памяти происходит добавление соли к исходным данным, а поскольку соль одинакова только для конкретной ВМ, то и дедупликация страниц со стороны TPS происходит только на уровне отдельной виртуальной машины (Intra-VM TPS).
Механизм Salting используется по умолчанию, начиная со следующих версий гипервизоров:
ESXi 5.0 Patch ESXi500-201502001
ESXi 5.1 Update 3
ESXi 5.5, Patch ESXi550-201501001
ESXi 6.0
Управлять этим механизмом можно из расширенных настроек хоста VMware ESXi (Advanced Settings, раздел Mem). По умолчанию используется расширенная настройка Mem.ShareForceSalting в значении 2. Это означает, что salting включен и работает Intra-VM TPS.
Если же мы поставим эту настройку в значение 0, как на рисунке выше, то соль перестанет добавляться к хэшу при работе алгоритма TPS, а значит он будет работать для всех виртуальных машин на хосте (Inter-VM TPS).
Ну и, как становится понятным, TPS можно включить для отдельной группы виртуальных машин на хосте ESXi, для чего нужно использовать одинаковую соль для этих виртуальных машин. Для этого в расширенных настройках виртуальной машины нужно добавить параметр sched.mem.pshare.salt с одинаковым значением у всех нужных вам ВМ (это также можно сделать и в vmx-файле).
В этом случае значением настройки Mem.ShareForceSalting должно быть 1 или 2 (разницы тут особой нет, кроме того, что если у вас используется значение 1, то при отсутствии соли включится Inter-VM sharing).
Ну и в таблице ниже приведем различия в работе алгоритма TPS для различных значений Mem.ShareForceSalting и в зависимости от заполненности sched.mem.pshare.salt для виртуальных машин.
Значение Mem. ShareForceSalting (настройка уровня хоста)
Значение sched.mem.pshare.salt (настройка уровня ВМ)
vc.uuid (свойство ВМ)
Значение соли в настройках ВМ
TPS между виртуальными машинами (Inter-VM)
TPS внутри каждой из ВМ (Intra-VM)
0
Игнорируется
Игнорируется
0
Да, между всеми машинами на хосте
Да
1
Установлено
Игнорируется
Используется sched.mem.pshare.salt
Только между ВМ с одинаковой солью
Да
1
Не установлено
Игнорируется
0
Да, между всеми машинами на хосте
Да
2
Установлено
Игнорируется
sched.mem.pshare.salt
Только между ВМ с одинаковой солью
Да
2
(по умолчанию)
Не установлено (по умолчанию)
Используется
Используется vc.uuid
No inter-VM TPS
Да
2
Не установлено
Отсутствует по какой-либо причине
Используется случайный номер для каждой ВМ
No inter-VM TPS
Да
Для более детальной информации вы можете обратиться к статье KB 2097593.
Компания VMware выпустила весьма полезный документ "VMware Virtual SAN 6.2
Network Design Guide", в котором приведены конкретные рекомендации по настройке и конфигурации сети при организации отказоустойчивых кластеров хранилищ.
Посмотрим, какие интересные моменты есть в документе. Например, рассматривается следующая архитектура построения кластера Virtual SAN (это Leaf-Spine архитектура):
В такой сети показатель переподписки (oversubscription) между стойками равен 4:1 (от хостов идет 16 линков по 10 Гбит к свичу, от которого идет 4 линка по 10 Гбит к Spine-коммутатору). В этом случае, если предположить, что на хостах 10 ТБ емкости, из которых 6 ТБ занимают данные виртуальных машин, и вдруг возникнет необходимость операции rebuild для кластера (при FTT=1), то при использовании 3/4 пропускной способности канала (то есть 30 Гбит/с) операция займет 26 минут. Если же объем данных на хосте увеличить до 12 ТБ, а канал уменьшить до 10 Гбит/с, то rebuild займет 156 минут. Мораль такова - нельзя перебарщивать с переподпиской, а также нужно обеспечить широкий канал между узлами кластера.
Еще из рекомендаций в документе:
Отключите Flow Control на физическом оборудовании, у Virtual SAN есть свой механизм контроля перегрузки канала.
Используйте vSphere Distributed Switch (VDS) совместно с Virtual SAN.
Настройте Load Based Teaming (LBT), который балансирует нагрузку, в зависимости от загрузки физического адаптера (похоже на Virtual Port ID, только привязка к порту пересматривается каждые 30 секунд).
Если используете несколько кластеров Virtual SAN - помещайте трафик каждого из них в отдельный VLAN.
Если в датацентре используются большие кадры jumbo frames - используйте их в кластере Virtual SAN, но если не используются - то отдельно включать их не надо.
Включите Cisco Discovery Protocol (CDP) и Link Layer Discovery
Protocol (LLDP) в режимах и приема, и передачи.
В документе присутствует еще несколько интересных рекомендаций, прочитать которые будет особенно интересно администраторам крупных инфраструктур и больших кластеров Virtual SAN.
Все администраторы знают, как включать и отключать доступ по SSH на хостах ESXi. Однако часто в административных целях требуется перещелкнуть этот сервис не только на одном хост-сервере, а в пределах целого кластера VMware HA/DRS для выполнения комплекса задач на нескольких хостах. В этом случае поможет скрипт PowerCLI, который написал David Ring.
Сначала вводите IP-адрес сервера vCenter, логин и пароль администратора, ну а потом сценарий запросит имя кластера в котором вы хотите включить/отключить доступ к серверам по SSH:
Когда вы закончите проведение необходимых операций в консоли хостов ESXi по SSH, запустите скрипт повторно для отключения SSH в целях безопасности:
Ну и, собственно, сам скрипт PowerCLI:
########### vCenter Connectivity Details ###########
Write-Host “Please enter the vCenter Host IP Address:” -ForegroundColor Yellow -NoNewline
$VMHost = Read-Host
Write-Host “Please enter the vCenter Username:” -ForegroundColor Yellow -NoNewline
$User = Read-Host
Write-Host “Please enter the vCenter Password:” -ForegroundColor Yellow -NoNewline
$Pass = Read-Host
Connect-VIServer -Server $VMHost -User $User -Password $Pass
########### Please Enter the Cluster to Enable SSH ###########
Write-Host “Clusters Associated with this vCenter:” -ForegroundColor Green
$VMcluster = ‘*’
ForEach ($VMcluster in (Get-Cluster -name $VMcluster)| sort)
{
Write-Host $VMcluster
}
Write-Host “Please enter the Cluster to Enable/Disable SSH:” -ForegroundColor Yellow -NoNewline
$VMcluster = Read-Host
########### Enabling SSH ###########
Write-Host “Ready to Enable SSH? “ -ForegroundColor Yellow -NoNewline
Write-Host ” Y/N:” -ForegroundColor Red -NoNewline
$SSHEnable = Read-Host
if ($SSHEnable -eq “y”) {
Write-Host “Enabling SSH on all hosts in your specified cluster:” -ForegroundColor Green
Get-Cluster $VMcluster | Get-VMHost | ForEach {Start-VMHostService -HostService ($_ | Get-VMHostService | Where {$_.Key -eq “TSM-SSH”})}
}
########### Disabling SSH ###########
Write-Host “Ready to Disable SSH? “ -ForegroundColor Yellow -NoNewline
Write-Host ” Y/N:” -ForegroundColor Red -NoNewline
$SSHDisable = Read-Host
if ($SSHDisable -eq “y”) {
Write-Host “Disabling SSH” -ForegroundColor Green
Get-Cluster $VMcluster | Get-VMHost | ForEach {Stop-VMHostService -HostService ($_ | Get-VMHostService | Where {$_.Key -eq “TSM-SSH”}) -Confirm:$FALSE}
}
Скачать скрипт можно по этой ссылке (уберите расширение doc и добавьте .ps1).
На днях от известного многим из вас Рика Вановера (Rick Vanover) из компании Veeam пришло письмо о том, что в этом году мне пришла награда Veeam Vanguard 2016 в качестве признания заслуг по распространению технологий Veeam, предназначенных для обеспечения доступности сервисов современного датацентра. Я получаю ее уже во второй раз (в первый раз ее вручали в Лас-Вегасе).
Большое спасибо вот этим ребятам (надеюсь, скоро вас всех увижу), а также Дарье Крючковой:
Это хороший повод рассказать об интересных новостях Veeam Software, которых набралось в последнее время немало.
1. Уже доступен Veeam Managed Backup Portal (бесплатно).
Осенью мы писали про Veeam Managed Backup Portal - решение, позволяющее сервис-провайдерам (и даже реселлерам решений по виртуализации) организовать резервное копирование виртуальных машин своих клиентов.
Решение Veeam Managed Backup Portal for Service Providers состоит из двух ключевых компонентов: облачная инфраструктура виртуализации, где работают виртуальные машины (это может быть как IaaS-облако, так и частная инфраструктура клиента), а также виртуальный модуль на Microsoft Azure Marketplace, который реализует портал управления резервным копированием нескольких клиентов. То есть, сама управляющая ВМ находится в облаке Azure.
Основные возможности решения Veeam Managed Backup Portal:
Упрощенное подключение новых заказчиков - благодаря порталу для поставщиков услуг создавать учетные записи, предоставлять услуги и управлять биллингом стало значительно проще. Одна из главных сложностей для провайдера — расчет стоимости услуги. Больше не придется интегрировать разнородные решения воедино или производить подсчеты вручную в Excel, потому что Veeam предлагает для этого готовую опцию.
Удаленный мониторинг и управление резервным копированием. Комплексный контроль над Veeam-инфраструктурой заказчика из централизованного интерфейса. Удаленный мониторинг и управление заданиями резервного копирования теперь не представляют сложности. Все это осуществляется через единый порт (VPN не требуется).
Многопользовательский портал - заказчики будут в курсе происходящего благодаря пользовательскому порталу с вашим логотипом. Вы можете делегировать пользователям базовые возможности мониторинга и настройки, чтобы уменьшить количество однотипных звонков и запросов в службу техподдержки. Заказчики смогут добавлять пользователей и площадки, проверять состояние резервных копий, контролировать емкость облачного репозитория и проверять ежемесячные выписки по расходам. Благодаря общему представлению об уровне защиты своей инфраструктуры заказчик будет уверен и в доступности сервиса при возникновении непредвиденных обстоятельств.
Это полностью бесплатное решение, которое значительно упростит предоставление услуг, биллинг и отчетность для существующих и будущих облачных провайдеров. Став участником программы VCSP, вы получите по электронной почте бесплатный ключ для использования в Azure. Алгоритм действий таков:
Более подробная информация о Veeam Managed Backup Portal приведена по этой ссылке.
2. Анонсирован Veeam Availability Orchestrator.
Veeam Availability Orchestrator - это инструмент для управления послеаварийным восстановлением для крупных компаний. В данном случае это может стать неплохой заменой VMware Site Recovery Manager, так как Veeam всегда все делает качественнее и надежнее, чем сама VMware.
Основные возможности Veeam Availability Orchestrator:
Управление резервным копированием и репликацией Veeam в соответствии с планом послеаварийного восстановления.
Автоматическая проверка работоспособности — тестирование планов восстановления без ущерба для рабочей среды и без ручных манипуляций.
Документирование и соответствие требованиям — возможности документирования, обновления информации и формирования отчетов в соответствии с требованиями компании. Эта функция - приятное и полезное дополнение к традиционным возможностям SRM.
Более подробно о Veeam Availability Orchestrato можно узнать по этой ссылке (там же можно оставить почту для оповещения о новостях по продукту).
3. Мероприятие серии VeeamON Tour в Санкт-Петербурге.
Компания Veeam приглашает вас принять участие в ежегодном мероприятии VeeamON Tour St. Petersburg, которое состоится 14 апреля 2016 года в отеле «Талион Империал».
Основные темы конференции:
Повышение эффективности инвестиций в современный ЦОД. Концепция "Always-On Enterprise".
Управление, диагностика и мониторинг виртуальной инфраструктуры.
Аварийное восстановление как сервис (DRaaS) и облачные технологии.
Живая демонстрация новых возможностей Veeam Avalability Suite v9.
В конце мероприятия состоится розыгрыш ценных призов!
Очень интересное сравнение протоколов доступа к виртуальным ПК и приложениям в инфраструктуре VMware Horizon 7 появилось на одном из блогов, посвященных технологиям виртуализации. Коллега сравнивал производительность проверенного временем PCoIP и пришедшего ему на смену протокола Blast Extreme в следующей тестовой конфигурации:
Автор обращает внимание на то, что PCoIP работает по UDP, поэтому похож на гоночную машину (лучше всего себя ведет на широкой полосе канала без помех и высокой нагрузки), а Blast Extreme, работающий по TCP - это джип, который хорошо едет по пересеченной местности (то есть, адаптируется к параметрам канала).
Тестирование проводилось по следующей схеме:
Пользователь логинится и ждет 1 минуту, чтобы сессия настроилась и была готова к тестированию.
Открыли локальный PDF-файл, скроллили его вверх и вниз 1 минуту.
Зашли на новостной сайт с графикой http://www.vg.no и поскроллили его.
Открыли Word и печатали там лабуду в течение 1 минуту.
Открыли трейлер фильма Captain America Civil War в полный экран браузера Chrome на полную длительность (2 минуты).
Для сбора данных и настройки окружения использовались следующие средства:
Splunk – Uberagent (сбор данных).
Netbalancer (bandwidth, возможность установки параметра packet loss, определение лимитов по bandwidth limits и задание latency).
Первый тест (5 MS latency, no packet loss) для Blast Extreme
Параметры использования канала: 248 MB total, Maximum usage 1,6 MBPS
Использование CPU: (Splunk, UberAgent) VMBlastW.exe (около 8.2%):
Среднее использование памяти:
Максимальное использование памяти:
Первый тест (5 MS latency, no packet loss) для PCoIP
Тут надо отметить, что PCoIP буферизует и собирает пакеты по 1198 байт перед отправкой:
Параметры использования канала: 184 MB, Maximum usage 999 KBPS
Использование CPU: (Splunk, UberAgent, около 24.2%):
Среднее использование памяти:
Максимальное использование памяти:
Автор делает вывод, что PCoIP дает намного большую нагрузку на клиентское устройство, чем Blast Extreme, который, в свою очередь, дает лучший User Experience, но потребляет большую ширину канала. Это может быть связано с дополнительными накладными расходами на квитанции TCP, а также тем, что Blast Extreme тестирует канал при начале передачи и пытается выжать из него максимум.
Работа Blast Extreme на latency 200 миллисекунд
Использование канала 43 MB, Maximum bandwidth 201 KBPS:
Здесь latency оказывает весьма негативный эффект на Blast за счет протокола TCP. Также на картинке выше видно, что неэффективно маленькие пакеты используются даже когда буфер пуст или пости пуст.
При просмотре ролика на Youtube Blast все же максимизирует размер пакета:
Максимальное использование памяти:
Работа PCoIP на latency 200 миллисекунд
Использование канала 118 MB, Maximum bandwidth 689 KBPS:
Нагрузка на CPU (обратите внимание, что меньше, чем без latency):
Использование памяти:
Вывод: Blast умеет использовать широкий канал и дает лучший user experience + создает меньшую нагрузку на клиентское устройство.
Вебинар пройдет 5 апреля в 20-00 по московскому времени.
Напомним, что у StarWind есть собственное решение для создания гиперконвергентной инфраструктуры на базе серверов Dell, гипервизора Microsoft Hyper-V, ПО для хранилищ StarWind Virtual SAN, резервного копирования Veeam Backup and Replication, а также средств управления 5nine Hyper-V Manager. Поставляется оно в виде готового к использованию программно-аппаратного комплекса.
На протяжении нескольких лет от системных администраторов VMware vSphere постоянно поступают жалобы на низкое быстродействие и глючность тонкого клиента управления платформой - vSphere Web Client. Это неудивительно - ведь веб-клиент vSphere построен на базе фреймворка Adobe Flex (пруф), который вобрал в себя все самые "лучшие" стороны флеш-технологии.
Так вот, время флеша похоже истекает - на сайте проекта VMware Labs появилось превью нового клиента vSphere HTML5 Web Client, построенного на базе новых стандартов HTML 5 и Javascript. Напомним, что флеш плох всего лишь в трех аспектах - производительность, стабильность и безопасность, ну а новый клиент призван все это улучшить.
Клиент vSphere HTML5 Web Client пока поддерживается только для VMware vSphere 6 и более поздних версий. Скажем тут на всякий случай, что этот клиент предназначен для управления виртуальной инфраструктурой только через сервисы VMware vCenter. Если вам нужно управлять отдельным хостом, то используйте ESXi Embedded Host Client, который теперь уже поставляется с vSphere 6.0 Update 2 и более поздними версиями платформы виртуализации.
На данный момент технологическое превью умеет делать следующие вещи:
Операции с питанием виртуальных машин (вкл/выкл/приостановка).
Изменение настроек ВМ (CPU, память, виртуальные диски).
Доступ к консоли виртуальных машин.
Страницы информации для хостов и ВМ.
Горячая миграция машин между хостами ESXi (без перемещения хранилищ).
Клонирование машин и создание шаблонов из ВМ.
Создание новой виртуальной машины (пока возможности ограничены).
Различные графики производительности для мониторинга и отслеживания событий (Performance charts, Tasks, Events).
Представления Global Views (последние задачи, алармы и т.п.).
К сожалению, пока в этом клиенте нет функций vSphere Update Manager (напомним, что и в обычном-то vSphere Web Client они появились спустя оочень долгое время).
Скачать VMware vSphere HTML5 Web Client можно в виде готового к развертыванию виртуального модуля OVA по этой ссылке. Для развертывания тонкого клиента понадобится поколдовать с командной строкой (инструкции доступны здесь), ну а в следующих версиях обещают полноценный GUI.
Таги: VMware, vSphere, Labs, Update, Web Client, Performance